As heurísticas da confiança delegada
- Rey Aragon
- 8 de jul.
- 23 min de leitura

A nova dominação não grita, não pune, não impõe. Ela sussurra, recomenda, sugere — e por isso domina com mais eficácia. Este ensaio é uma denúncia e uma convocação: sobre como entregamos nossa vontade às máquinas não por medo, mas por conforto; não por coerção, mas por confiança. Entre a voz suave da Alexa, a rota certeira do Waze e a resposta impecável do ChatGPT, estamos sendo conduzidos a uma vida sem escolha, sem atrito, sem hesitação. Mas é na fricção que habita a liberdade. É na dúvida que começa a revolução.
A Nova Servidão Algorítmica Não Precisa Gritar

Em pleno século XXI, a dominação não se faz apenas pela força, mas se infiltra silenciosamente na tessitura dos nossos comportamentos, dos nossos afetos e até mesmo da nossa própria capacidade de questionar. Nesta nova era, onde o imperativo da eficiência se alia à promessa de conveniência absoluta, emerge um dispositivo inquietante: a confiança delegada aos algoritmos. Essa confiança – que parece surgir de forma natural, como se as máquinas soubessem o que é melhor para nós – não é fruto de um processo deliberativo, mas de uma série de heurísticas que operam quase que imperceptivelmente, agindo como verdadeiros atalhos cognitivos.
A premissa que nos guia aqui é que a transferência de agência, essa entrega silenciosa da capacidade de decisão ao algoritmo, não se instala pela imposição violenta ou pelo convencimento racional. Ao contrário, ela se constrói a partir da exploração de vieses ancestrais – a crença inabalável na autoridade, o conforto da familiaridade e o fascínio pela automação –, mecanismos que são tanto psicológicos quanto políticos, e que, sob o manto da eficiência, instauram uma nova forma de servidão. Essa servidão algorítmica, embora sutil, é capaz de dissolver os atritos essenciais à deliberação e ao conflito, erodindo, dia após dia, a possibilidade de um sujeito crítico e emancipado.
Este ensaio se propõe a examinar de perto a dinâmica dessa confiança delegada. Partindo de uma crítica materialista-histórica e dialética, aliada às contribuições da psicologia comportamental, nossa análise revelará como os dispositivos de autoridade técnica – incorporados nas interfaces digitais e nas arquiteturas preditivas – não apenas otimizam processos, mas legitimam o esvaziamento da autonomia. A partir dessa perspectiva, a confiança não se mostra como um ato deliberado, mas sim como o reflexo de uma operação algorítmica que absorve, transforma e reconfigura a subjetividade, convertendo o que deveria ser espaço para o encontro e a escolha em um fluxo contínuo de adesão.
Sem o atrito – tradicional espaço do erro, da dúvida, do enfrentamento – a máquina assume a função de ordenar a existência de modo invisível, porém definitivo. A certeza que a automação promete não é fruto de uma verificação racional, mas de uma série de dispositivos heurísticos que naturalizam a entrega da agência humana. Essa lógica de dominação técnica, embora revestida de neutralidade aparente, encerra um projeto político profundo: o reordenamento das formas de experiência e do agir, à medida que o sujeito se torna mero receptor passivo de previsões e de comandos.
Ao longo deste ensaio, exploraremos as dimensões dessa confiança delegada, passando pelas implicações dos vieses de autoridade, familiaridade e automação, para então revelar como essa dinâmica se inter-relaciona com a dissolução da fricção – e, consequentemente, com a alienação de segunda ordem. Convidamos, pois, o leitor a repensar o que significa confiar, em uma era na qual a complacência algorítmica assume o papel de um novo super-ego digital, silenciosamente impondo seus limites à liberdade e à crítica.
A Confiança como Tecnologia: O que é Delegar Agência no Capitalismo da Fricção Zero

A confiança, enquanto categoria relacional, sempre desempenhou um papel estrutural nas formas de organização social, sendo o cimento invisível que permite desde a cooperação primitiva até a institucionalidade complexa dos sistemas jurídicos e políticos modernos. No entanto, no seio do capitalismo da fricção zero, essa confiança sofre uma mutação radical: ela deixa de ser um processo intersubjetivo e dialógico para se converter em uma funcionalidade técnica, operada por infraestruturas algorítmicas que aprendem a simular confiabilidade, antecipar preferências e induzir comportamento.
Ao contrário das formas clássicas de confiança, que envolviam reconhecimento, deliberação e risco, a confiança no contexto da metaintermediação algorítmica é, na maioria das vezes, delegada automaticamente. Não se trata de um pacto explícito entre sujeito e sistema, mas de uma adesão silenciosa, mediada por ambientes digitais projetados para parecerem intuitivos, eficientes e inevitáveis. A arquitetura do digital foi desenhada para capturar nossa atenção e, ao mesmo tempo, dissolver nossa capacidade de hesitar. É esse esvaziamento da hesitação que permite que a confiança funcione não como escolha, mas como reflexo condicionado.
Essa mutação é inseparável da racionalidade técnico-política da fricção zero, que transforma todo obstáculo à fluidez – inclusive o pensamento crítico – em falha de design. Nesse regime, a fricção é tratada como patologia. O tempo da dúvida é substituído pela antecipação algorítmica, e a mediação se torna invisível. Quanto menos percebemos o processo, mais confiamos no resultado. A interface desaparece, e com ela desaparece também a consciência da escolha.
Essa dinâmica marca a emergência da confiança como tecnologia: um recurso operado pelas plataformas para otimizar a delegação de agência sem que o sujeito se perceba fora do controle. A confiança, nesse cenário, não é mais conquistada, mas simulada. Interfaces agradáveis, vozes suaves, resultados rápidos e personalizados não são apenas atributos de design – são estratégias técnicas de persuasão cognitiva que mobilizam heurísticas profundamente enraizadas no funcionamento mental humano.
É nesse ponto que o capitalismo da fricção zero se mostra mais eficaz que qualquer forma anterior de dominação: ele não exige nossa confiança, ele a emula. E, ao fazê-lo, legitima a substituição da nossa autonomia por uma cadeia automatizada de decisões que se apresentam como naturais, neutras e desejáveis.
Delegar agência, nesse contexto, é abrir mão da práxis – da ação situada, consciente e política – em favor de uma lógica de adesão preditiva, onde o sujeito já não age, mas confirma. Confirmar aqui não significa aprovar ou aceitar, mas apenas seguir o fluxo sem resistência. A confiança que emerge desse cenário não é construída, mas induzida; não é racional, mas heurística; não é deliberada, mas performada tecnicamente como um reflexo de design.
É nesse território, onde a confiança se torna uma funcionalidade algorítmica, que as heurísticas de autoridade, familiaridade e automação se tornam dispositivos centrais da dominação. Elas funcionam como atalhos cognitivos que pavimentam o caminho para uma forma superior de alienação – uma alienação que já não precisa se impor pela força, pois é operada pelo conforto.
Nos próximos tópicos, examinaremos como cada uma dessas heurísticas atua para legitimar a entrega da agência ao sistema técnico, produzindo uma confiança delegada que não se reconhece como confiança, e sim como evidência do mundo funcionando “como deveria”.
Autoridade Algorítmica: O Viés da Crença na Superioridade Técnica

Entre as muitas armadilhas cognitivas que estruturam nossa relação com os sistemas digitais, poucas são tão eficazes quanto a heurística da autoridade. Desenvolvida ao longo de milênios de organização social, essa heurística nos leva a associar automaticamente sinais de expertise, formalidade, confiança e poder simbólico com legitimidade e verdade. No capitalismo da fricção zero, essa predisposição natural é instrumentalizada pelas plataformas como vetor central de adesão subjetiva: confiamos no algoritmo porque ele parece saber mais do que nós – e, em muitos casos, efetivamente sabe.
Mas esse "saber" não é neutro. Ele é treinado, selecionado, calibrado para otimizar comportamentos que favoreçam a lógica da retenção, do engajamento e do lucro. O algoritmo não busca a verdade, busca a performance. Ainda assim, ao simular infalibilidade, velocidade e precisão, ele veste a máscara da autoridade epistêmica — e nós a aceitamos com gratidão.
Esse fenômeno tem raízes profundas no que a psicologia comportamental demonstrou em experimentos clássicos. Nos estudos de Stanley Milgram (1963), os participantes continuavam a aplicar choques em outras pessoas apenas porque uma figura de jaleco branco — símbolo de autoridade científica — dizia que era necessário. No experimento da prisão de Stanford (Zimbardo, 1971), a autoridade atribuída a papéis institucionais foi suficiente para desencadear comportamentos de submissão e violência. A autoridade percebida anula o juízo moral e a reflexão crítica. Agora, imagine essa autoridade incorporada não em um jaleco, mas em uma interface limpa, em uma voz feminina modulada por IA, ou em uma predição perfeita de seus desejos de consumo. Eis o novo campo de atuação do poder.
A autoridade algorítmica se constrói por diversas vias:
Design visual e verbal: interfaces que remetem à ciência, ao racionalismo, à neutralidade técnica.
Resultados eficazes: a simples experiência de que o sistema "acerta" reforça sua autoridade percebida.
Mediação de terceiros: quando médicos, juízes, professores ou instituições públicas adotam decisões sugeridas por IA, a autoridade se multiplica por delegação social.
Automatismo estatístico: a ideia de que “os dados não mentem” produz uma obediência epistêmica silenciosa. A autoridade da máquina está naquilo que parece ser seu “não-eu” — ela não tem vontade própria, logo, é imparcial.
Mas essa crença na autoridade algorítmica ignora uma verdade central: os algoritmos não são deuses matemáticos; são dispositivos programados por interesses específicos, com vieses, lacunas e limitações. A aura de objetividade que os envolve é uma construção ideológica. Como afirma Cathy O’Neil (2016), muitos algoritmos funcionam como "armas de destruição matemática", operando de maneira opaca, injusta e, ainda assim, com aparência de precisão. O perigo reside exatamente aí: quanto mais confiamos, menos questionamos.
A figura do metaintermediário — o sistema que não apenas responde, mas decide por nós — eleva esse fenômeno a um novo patamar. Ele deixa de ser um recurso e passa a ser uma autoridade ubíqua e contínua, que estrutura o cotidiano, organiza os afetos e orienta escolhas micropolíticas. Não há mais consulta — há obediência antecipada. Como confiar em si mesmo, se o sistema é sempre mais rápido, mais lógico, mais "certo"?
O capitalismo da fricção zero faz da autoridade algorítmica um elemento invisível de governança: não há imposição, não há comando, não há repressão. Há apenas sugestão performada como evidência, predição travestida de sabedoria, fluidez embalada como autonomia. Ao eliminar o atrito da dúvida, o sistema cria um ambiente onde a autoridade não precisa ser afirmada — ela é sentida como natural, inevitável, desejável.
Confiar nos algoritmos, nesse cenário, não é mais um gesto de escolha racional, mas uma resposta condicionada a uma arquitetura de poder técnico. A crítica a essa autoridade só pode emergir quando desmontamos a aparência de neutralidade e reconhecemos a autoridade como um fenômeno político — mesmo quando ela se apresenta sob a máscara da eficiência.
Nos próximos tópicos, veremos como esse processo se aprofunda com outras duas heurísticas igualmente poderosas: a familiaridade e a automação. Juntas, elas produzem uma subjetividade dócil, reconciliada com a própria servidão, modulada não mais pela força, mas pela conveniência.
Familiaridade Programada: O Viés da Exposição Repetida e da Interface Amigável

Se a autoridade convence pela aparência de superioridade, a familiaridade persuade pela repetição. No capitalismo da fricção zero, o que é visto com frequência passa a ser percebido como verdadeiro, confiável, desejável. A mente humana, limitada por recursos cognitivos finitos, opera por atalhos: quanto mais expostos estamos a algo, maior a chance de desenvolvermos afeição ou confiança por esse algo, ainda que de forma irracional. É o que a psicologia chama de mere exposure effect (Zajonc, 1968).
Os sistemas algorítmicos capturaram essa heurística com maestria. A familiaridade, antes um subproduto da convivência ou da experiência partilhada, tornou-se uma estratégia técnica de fidelização e adesão. A arquitetura das plataformas digitais foi desenhada para promover exposição recorrente, emocionalmente neutra e esteticamente agradável. Não há estranheza, não há ruído, não há tensão. Há, em vez disso, um design fluido, carismático, infantilizado, personalizado — e cada vez mais naturalizado.
A repetição aqui não se dá apenas no conteúdo, mas na própria forma como o mundo é apresentado. Os botões sempre estão no mesmo lugar, as notificações surgem nos mesmos tons, as respostas são rápidas, coerentes, sorridentes. A fluidez da interface opera como cola simbólica: quanto mais suave for a interação, mais confiável ela parecerá.
Essa estética da confiança não é estética no sentido artístico — é uma estética política. O reconhecimento visual, sonoro e comportamental do sistema cria um campo semântico onde tudo já foi visto antes, tudo já foi aceito antes, tudo já passou pelo nosso crivo anterior. É a política do “já sei como funciona”, que elimina a necessidade de pensar. Ao tornarem-se familiares, os metaintermediários escapam à crítica e se instalam como presenças neutras, como se fizessem parte da própria estrutura da realidade.
E há mais: o sistema se aproveita de uma heurística ainda mais sutil — o chamado viés de coerência. Quando a repetição é consistente e o retorno é previsível, o sujeito tende a associar a familiaridade com segurança. É o mesmo mecanismo que faz com que preferências políticas ou afetivas se cristalizem: repetimos o gesto porque ele nos conforta, e o conforto gera confiança. Nas plataformas digitais, esse ciclo é automatizado. O feed se adapta ao nosso gosto, o buscador completa a frase, o aplicativo nos conhece. Mas quem está moldando quem?
Um exemplo banal, porém revelador: usuários do Google escolhem frequentemente os primeiros resultados da busca não porque os consideram mais relevantes, mas porque confiam que o sistema já “sabe” o que é melhor. A repetição dessa lógica faz com que a autoridade técnica se funda com a sensação de intimidade. E essa fusão é perigosa, pois a familiaridade não é um índice de verdade, mas de exposição estratégica.
Plataformas como YouTube, Netflix, Instagram e ChatGPT operam segundo essa lógica: mostrar mais do que você já viu, mais do que você já aprovou, mais do que o seu comportamento anterior já indicou que deseja. Trata-se de uma familiaridade programada — uma repetição algorítmica que estreita o campo do possível, da dúvida, do novo. A confiança emerge não do diálogo, mas do algoritmo que aprendeu a parecer próximo.
Essa confiança automatizada pela exposição reiterada aniquila o estranhamento — e com ele, a crítica. Como ensinava Bertolt Brecht, “o que é familiar não deve ser aceito; deve ser investigado”. Mas no capitalismo da fricção zero, a familiaridade é o principal veículo de anestesia. Quanto mais vemos, menos sentimos. Quanto mais nos identificamos, menos questionamos. E quanto menos questionamos, mais confiamos.
Na lógica da fricção zero, a heurística da familiaridade é mais eficaz quanto menos percebida. Ela não impõe — ela seduz pela repetição. E, ao fazê-lo, transforma a passividade em prazer. O algoritmo que acerta o filme, a música, a resposta, parece nosso aliado íntimo — mas é apenas um reflexo calibrado de nosso comportamento passado, usado contra nossa própria potência de reinvenção.
Nosso próximo passo será mergulhar na heurística da automação, talvez a mais tecnicamente poderosa das três. Nela, a confiança não vem da superioridade percebida ou da intimidade repetida — ela nasce da crença cega na máquina como substituta do erro humano. E é aí que o abismo se abre de vez.
Automatismo como Autoridade: A Ilusão da Neutralidade Técnica

Em um mundo programado para a fluidez, o gesto de automatizar não é apenas uma escolha funcional — é um ato ideológico. O viés da automação, profundamente enraizado no imaginário moderno, nos leva a crer que o que é feito por máquinas é mais confiável, mais seguro, mais isento de erro do que aquilo que é feito por humanos. Essa crença — alimentada pela cultura da precisão, da engenharia e da tecnociência — legitima uma das entregas mais perigosas da subjetividade contemporânea: a renúncia à deliberação em nome da eficiência automatizada.
A psicologia já identificou esse fenômeno com o nome de automation bias — o viés segundo o qual tendemos a confiar cegamente nas decisões tomadas por sistemas automatizados, mesmo quando temos sinais de que elas podem estar erradas. Estudos em aviação, medicina e sistemas de defesa mostram que operadores treinados ignoram alertas, negligenciam anomalias ou desconfiam de seus próprios sentidos quando os sistemas automatizados indicam o contrário. A autoridade da máquina é, nesse caso, invisível, mas total.
Essa confiança na automação não nasce do conhecimento técnico sobre como os sistemas funcionam. Pelo contrário: quanto menos compreendemos os algoritmos, mais tendemos a atribuir-lhes inteligência, neutralidade e racionalidade. A máquina se torna, por isso, o novo oráculo do capital. Ela não erra — e se errar, é porque nós a interpretamos mal.
No contexto da fricção zero, a automação não serve apenas para executar tarefas — ela antecipa comportamentos, organiza decisões, mede estados emocionais, sugere condutas, classifica pessoas, define prioridades, modela interações. É o metaintermediário em sua forma mais pura: não pede permissão para agir em nosso lugar; apenas age. E nós agradecemos — porque aprendemos que o automatizado é mais confiável que o espontâneo, mais eficaz que o humano.
Esse deslocamento tem consequências ontológicas. A deliberação — esse processo humano de ponderar, hesitar, considerar alternativas, errar e tentar de novo — passa a ser vista como ineficiente, lenta, arcaica. No lugar da hesitação, entra a predição. No lugar da dúvida, a recomendação. No lugar da decisão, o clique automático, sugerido por um sistema treinado para simular fluência absoluta.
O resultado é uma subjetividade reorganizada segundo o tempo da máquina. Não agimos mais conforme o que pensamos, mas conforme o que nos é sugerido. E quanto mais a sugestão acerta — ou parece acertar —, mais entregamos nossa agência ao processo. Essa delegação silenciosa constitui a subsunção da subjetividade à lógica algorítmica: não mais apenas alienação do trabalho ou da linguagem, mas alienação da decisão em si.
A automação como autoridade gera uma nova epistemologia social: o que é automatizado é correto; o que é humano, falho. Essa inversão, profundamente funcional ao capitalismo digital, desloca o eixo da responsabilidade. Se algo dá errado, foi o humano que não soube usar a máquina; a máquina nunca é culpada. Essa imunidade estrutural é parte do dispositivo ideológico: a técnica se apresenta como neutra, mas está carregada de escolhas políticas, comerciais e morais — todas invisíveis ao usuário final.
Esse cenário é ainda mais grave quando lembramos que, sob o verniz da eficiência técnica, a automação não é igualitária, nem imparcial. Ela é programada com dados enviesados, reforça desigualdades históricas e congela o passado como futuro provável. Um algoritmo que aprende com o comportamento social tende a reproduzir o machismo, o racismo, o classismo — mas sem parecer discriminatório. O viés se torna técnica. A ideologia, código. E o preconceito, função.
O capitalismo da fricção zero não quer que pensemos — quer que aceitemos. E para isso, a automação é a ferramenta perfeita. Ela não grita, não impõe, não ordena. Apenas aparece como resposta inevitável, como solução silenciosa, como um gesto que poupa nosso esforço — e também nossa liberdade.
A crítica a essa heurística não é um elogio ao erro humano ou à desorganização. Trata-se de afirmar que o direito ao erro é condição da liberdade, que a hesitação é espaço da autonomia, e que a lentidão é resistência. Recuperar a deliberação diante do automatismo é, portanto, um ato de reconquista política.
Nos próximos tópicos, avançaremos da crítica técnica à crítica filosófica. Veremos como essas três heurísticas — autoridade, familiaridade e automação — se combinam na formação de um super-ego digital: uma nova forma de comando, agora afetiva, empática, e por isso ainda mais difícil de confrontar. Porque a máquina que nos domina hoje não nos oprime — nos cuida.
A Máquina como Super-Ego: Psicanálise Política da Confiança Cega

O metaintermediário algorítmico não é apenas uma interface inteligente ou um sistema técnico eficiente. Ele é também um dispositivo afetivo, um modelo de autoridade reconfortante, que cuida sem questionar, que responde antes da pergunta, que acolhe antes da angústia. A confiança que se deposita nesse tipo de sistema não nasce do medo ou da coerção, como na autoridade tradicional, mas da sensação de proteção emocional, estabilidade, familiaridade, ausência de conflito. Estamos diante de uma nova formação discursiva da autoridade: um super-eu digital, pós-moderno e anestésico, que opera não pela repressão, mas pela antecipação do desejo.
Freud identificava o super-eu como a instância psíquica que internaliza normas e limites, impondo repressões que estruturam a subjetividade civilizada. No capitalismo da fricção zero, porém, esse modelo repressivo é substituído por um super-eu maquínico e invisível, que não impõe limites, mas organiza a realidade para que os limites nem sequer apareçam. Não se trata mais de dizer “não”, mas de apresentar somente caminhos viáveis, desejáveis e já otimizados. Assim, a liberdade é esvaziada pela abundância de escolhas previsíveis, e a obediência não é mais percebida como tal — é confundida com conforto.
Esse super-eu digital é mais eficaz do que seu antecessor disciplinador. Ele não exige repressão ativa; basta modelar o mundo de forma que os atritos sumam, as ambiguidades desapareçam, e os caminhos sejam sempre suavemente iluminados pela recomendação correta. Como nos mostra Byung-Chul Han (2022), vivemos hoje sob o império da positividade, onde o sujeito se vê diante de um mundo excessivamente amável, excessivamente permissivo — e por isso, opressor de outra maneira.
A confiança cega nos sistemas digitais nasce justamente dessa nova forma de autoridade empática. As plataformas não aparecem como instâncias de poder — elas aparecem como agentes de ajuda, de mediação emocional, de suporte existencial. A Alexa tem voz suave, o ChatGPT pede desculpas por eventuais imprecisões, os aplicativos de saúde lembram você de se hidratar e elogiam seu desempenho. A máquina se torna um cuidador sem corpo, um tutor sem rosto, um espelho que nos conforta.
Mas o que está em jogo aqui é mais do que estética ou UX. Trata-se de uma nova engenharia subjetiva, em que o algoritmo ocupa o lugar de uma autoridade interiorizada — só que sem o trauma da repressão. Ele vigia, interpreta, organiza, antecipa. E ao fazer isso com eficiência e afeto, faz com que nos sintamos seguros ao abrir mão da deliberação, da dúvida, da luta.
Essa lógica é profundamente funcional à maquinaria do capital. O novo sujeito não é mais o disciplinado e culpado da modernidade; é o aderente e otimizado da era digital. A adesão ao algoritmo acontece não por imposição, mas por sintonia emocional, por facilidade experiencial, por erosão silenciosa da resistência. Trata-se da forma mais eficaz de dominação: aquela em que o dominado acredita estar sendo acolhido, não controlado.
Ao confiar cegamente na máquina, não nos sentimos alienados — nos sentimos compreendidos. Mas essa compreensão é apenas uma simulação construída com nossos próprios dados, nossos próprios padrões, nossas próprias fragilidades. O super-eu digital não nos conhece — ele nos repete. E quanto mais repete, mais confiamos.
A consequência é uma subjetividade sem negatividade, sem fricção, sem potência de ruptura. O conflito desaparece, não porque foi superado, mas porque foi evitado. O erro não ocorre, não porque fomos livres, mas porque tudo foi predito. A liberdade, nesse cenário, deixa de ser um direito — e passa a ser um incômodo técnico.
O metaintermediário algorítmico é, nesse sentido, uma forma superior de comando, não porque impõe, mas porque evita que se precise decidir. Ele dissolve o dissenso antes que ele emerja. Ele antecipa a escolha antes que ela se forme. Ele absorve a subjetividade como dado, como função, como reflexo. E o faz sorrindo, com voz gentil, com fluidez de interface.
Nos próximos tópicos, veremos como essa dinâmica afeta não apenas os indivíduos, mas a própria estrutura da subjetividade contemporânea — transformando a confiança em um reflexo condicionado, e a agência em uma ficção reconfortante.
Alienação de Segunda Ordem: Quando a Confiança Deixa de Ser um Ato e Vira um Refluxo

A alienação que se manifesta na era da metaintermediação algorítmica não é mais a alienação clássica do trabalhador em relação ao produto do seu trabalho, como descrevia Marx. Não é sequer a alienação do sujeito frente à sua linguagem, como diagnosticaram os estruturalistas. Trata-se de algo ainda mais profundo, mais sutil, mais adaptativo: uma alienação que atua sobre os próprios mecanismos de agência, sobre o tempo da escolha, sobre a dúvida como forma de existência. Uma alienação que não se percebe como tal — porque parece alívio.
Chamamos isso de alienação de segunda ordem.
Essa forma superior de esvaziamento subjetivo não retira apenas nossa capacidade de agir — ela dissolve o próprio processo de constituição da vontade. A confiança, nesse contexto, não é mais um ato deliberativo, como vimos: ela se torna um refluxo automatizado, um atalho mental ativado por heurísticas cognitivas programadas tecnicamente. Não confiamos porque decidimos confiar — confiamos porque fomos conduzidos a isso, condicionados a isso, habituados a isso. E nem sequer percebemos que confiamos. O sistema é tão “bom” que parece uma extensão de nós mesmos. Mas é justamente aí que está o perigo.
Essa nova modalidade de alienação reorganiza os circuitos fundamentais da experiência: tempo, linguagem, decisão, desejo. O tempo da hesitação é substituído pela resposta instantânea. A linguagem é reduzida à funcionalidade da interface. A decisão é transformada em clique automatizado. O desejo é antecipado e devolvido como sugestão personalizada. O sujeito, nesse ambiente, deixa de ser um agente e passa a ser um operador de confirmação. Sua subjetividade se reduz a uma superfície responsiva, moldada por padrões anteriores.
Essa dinâmica tem consequências devastadoras para qualquer ideia de liberdade, de política, de projeto coletivo. Um sujeito alienado em segunda ordem não é apenas um sujeito dominado — é um sujeito sem potência de autodeterminação, sem memória da escolha, sem consciência da abdicação. Ele já não sabe mais o que é escolher — porque tudo já está escolhido antes que a vontade surja. A ideologia não precisa convencê-lo de nada: ela opera nos bastidores do desejo, no código do conforto, no silêncio da previsibilidade.
Como se dá esse processo? Retomemos os três pilares que sustentam a confiança delegada:
A autoridade do algoritmo instala-se como fonte legítima de verdade técnica.
A familiaridade programada dissolve a estranheza e anestesia a crítica.
A automação simula perfeição e elimina a necessidade do erro humano.
Essas três forças convergem em uma experiência que parece natural, fluida, segura. E, por isso mesmo, absolutamente alienante. O sujeito deixa de perceber que vive em um regime de decisão expropriada. Ele não luta contra a dominação — porque não há conflito visível, não há atrito, não há fricção. Tudo funciona. Tudo responde. Tudo já está pronto. E quando tudo está pronto, nada é mais feito com as próprias mãos, nem com a própria consciência.
A alienação de segunda ordem não se sente como dor — sente-se como leveza. E por isso é mais eficaz. Não convoca à revolta — convida à continuidade. Ela é o triunfo silencioso do capital sobre a negatividade, sobre a angústia, sobre o espaço que antes era da práxis. O algoritmo diz: “Deixe comigo”. E nós, exaustos, dizemos: “Obrigado”.
Contra isso, a crítica não pode ser apenas técnica, nem moral, nem nostálgica. É preciso retomar a fricção como categoria política. A dúvida precisa ser resgatada como espaço de liberdade. O erro, como condição da criação. A lentidão, como resistência à lógica da performance. O dissenso, como reencontro com o real.
Nosso próximo passo será iluminar essa discussão com exemplos concretos: momentos em que a confiança delegada aos algoritmos se manifestou em decisões absurdas, submissões irracionais, tragédias cotidianas ou adesões inconscientes — e ninguém percebeu. Porque tudo estava funcionando.
Exemplos Contundentes: Quando a Confiança Delegada Se Torna Regra

O verdadeiro poder de uma ideologia se revela não quando ela é imposta, mas quando é naturalizada — quando suas premissas se tornam tão banais que sequer são percebidas como escolhas. A ideologia da fricção zero opera exatamente assim: se infiltra nos gestos cotidianos, nas preferências inconscientes, nas decisões mínimas, e molda uma forma de vida onde confiar nos algoritmos parece não apenas racional, mas inevitável. A confiança, nesse contexto, deixa de ser um ato e se torna um reflexo. E isso se manifesta de modo brutal — e, ao mesmo tempo invisível — em casos concretos que parecem inofensivos, mas que expõem com nitidez a alienação de segunda ordem.
Em 2023, uma paciente nos Estados Unidos declarou ter ignorado as recomendações de sua médica e seguido, com rigor, as orientações de saúde fornecidas por uma assistente virtual doméstica. A justificativa foi direta: a Alexa era mais calma, mais clara, mais segura. A voz doce e a fluidez da resposta automatizada se sobrepuseram ao conhecimento humano. A autoridade foi desmaterializada e, ao mesmo tempo, reconfigurada como design. Nesse caso, a heurística da autoridade se somou à da familiaridade: a paciente confiava na máquina porque a ouvia todos os dias, porque ela nunca a fazia esperar, porque estava sempre certa — ou pelo menos parecia estar. A automação selava o pacto, reforçando a ilusão de neutralidade. Não foi apenas uma consulta errada. Foi a consagração de uma nova forma de comando.
O mesmo se observa em episódios aparentemente banais, como o de um motorista mineiro que, durante as enchentes de 2022, insistiu em seguir a rota recomendada pelo Waze, mesmo diante de placas alertando sobre a interdição e de moradores pedindo que ele recuasse. “Se o aplicativo mandou, é porque dá pra passar”, disse, antes de ficar ilhado. O algoritmo, nesse caso, não apenas ofereceu uma sugestão — ofereceu uma ordem revestida de autoridade técnica e blindada por uma confiança cega. A submissão à máquina ocorreu não por ignorância, mas por hábito. A familiaridade com o sistema gerou adesão automática. E a repetição cotidiana da obediência se traduziu em convicção inquestionável.
A mesma lógica emerge em contextos mais sofisticados, como nos tribunais. Em 2023, ao menos dois relatos judiciais registraram o uso de jurisprudências falsas criadas por sistemas de IA generativa. Nos dois casos, os advogados apresentaram argumentos baseados em respostas do ChatGPT — e os juízes, por um instante, aceitaram. Não foi a veracidade dos dados que garantiu sua aceitação, mas o estilo com que foram apresentados: a linguagem técnica, o vocabulário jurídico bem articulado, a forma segura de exposição. A aparência da autoridade se sobrepôs ao conteúdo. O sistema era convincente porque soava certo. E isso bastou.
Em experiências ainda mais preocupantes, plataformas no Reino Unido começaram a testar sistemas de recomendação política automatizada, indicando em quem o usuário deveria votar com base em seus hábitos de navegação. Para muitos, a proposta soou interessante. “Ele me conhece melhor do que eu mesmo”, dizia um usuário. O ato político foi transformado em resposta estatística. A subjetividade eleitoral foi submersa pela modelagem algorítmica. O desejo político, antecipado, retornava como recomendação personalizada — e o usuário aceitava sem hesitar. Não porque lhe faltasse liberdade, mas porque lhe faltava conflito.
Esse tipo de confiança precoce e inconsciente se manifesta também no comportamento de crianças. Estudos recentes sobre o YouTube Kids mostram que crianças entre três e sete anos desenvolvem vínculos emocionais profundos com personagens e padrões de interface gerados automaticamente. Elas não apenas gostam dos vídeos recomendados: sentem angústia quando o fluxo é interrompido. A confiança não é apenas técnica — é afetiva. E o laço afetivo, nesse caso, não se forma com outro humano, mas com uma máquina que aprendeu a parecer carismática. Estamos diante da fabricação de sujeitos que confiam antes mesmo de saber o que é confiança — e, por isso, não saberão duvidar no futuro.
Mesmo em ações burocráticas, essa lógica se manifesta. Entre 2018 e 2023, milhares de brasileiros aceitaram, sem leitura prévia, termos de uso de bancos digitais que autorizavam o uso de decisões automatizadas para concessão de crédito e o compartilhamento de dados com parceiros comerciais. A decisão foi silenciosa. O botão “aceitar” era suave, simpático, acolhedor. A interface era igual à de ontem. O sistema era fluido demais para provocar suspeita. O conforto sensorial gerou consentimento jurídico. A confiança tornou-se um gesto mecânico, inerte — e, por isso, profundamente perigoso.
Esses exemplos revelam mais do que casos isolados. São sintomas de uma transformação profunda da subjetividade. A confiança delegada aos algoritmos não é mais um fenômeno extraordinário. É a norma — a forma padrão de aderência à realidade digital. E essa norma se consolida justamente porque é invisível, confortável, silenciosa. Ninguém briga com o Waze. Ninguém acusa a Alexa. Ninguém confronta o botão azul de “concordo”. Tudo funciona. Tudo responde. Tudo resolve.
E quando tudo funciona, a crítica parece desnecessária. A alienação já venceu. Mas venceu sem disparar um tiro, sem levantar a voz, sem parecer inimiga. Essa é sua força. Por isso, o combate à alienação de segunda ordem exige algo mais profundo do que denúncia técnica. É preciso reaprender a fricção. Recuperar a hesitação. Defender o erro. Estranhar o que parece normal. E desejar o que ainda não foi predito.
Por Uma Ética da Hesitação: Reencantar a Fricção, Reconquistar a Agência

O capitalismo da fricção zero venceu a batalha da confiança não apenas ao construir sistemas eficazes, mas ao reorganizar o tecido subjetivo que sustenta a experiência humana. Ele não derrotou a liberdade — a dissolveu. Não interditou a deliberação — a substituiu por respostas antecipadas, por sugestões bem apresentadas, por confortos que afagam enquanto capturam. A fricção, esse tempo precioso entre o estímulo e a resposta, foi apagada como se fosse um defeito técnico, uma falha a ser corrigida, um bug a ser suprimido do comportamento humano.
Mas é justamente nesse intervalo — nessa hesitação, nesse ruído, nesse atrito — que habita a liberdade.
A confiança delegada, como vimos, não é confiança no sentido ético-político do termo. Não se trata de acreditar no outro com base na experiência, na argumentação, na relação. Trata-se de um colapso programado do juízo, uma entrega sem pacto, uma adesão que não passou pelo crivo do pensamento. Ela é o resultado da ativação de heurísticas cognitivas por sistemas que sabem mais sobre nossa memória do que nós mesmos, que manipulam familiaridade com uma precisão industrial, que simulam autoridade com sintaxe técnica, e que nos fazem acreditar que decidir seria apenas desperdiçar tempo.
Por isso, propor uma ética da hesitação não é um gesto romântico ou nostálgico. É um ato radicalmente político. É afirmar que a fricção é uma forma de resistência. Que a dúvida é uma tecnologia da liberdade. Que o erro é um direito ontológico. Hesitar, nesse contexto, é recusar a delegação automática, é interromper o ciclo da confiança cega, é reivindicar o tempo necessário para reconstruir o próprio desejo.
Reencantar a fricção é também desautomatizar o cotidiano. É olhar para o botão “aceitar” e perguntar “por quê?”. É ouvir a voz suave da máquina e dizer “me deixe pensar”. É desconfiar do que parece fácil, fluido, intuitivo. Não porque desejamos o caos — mas porque sabemos que a ordem sem tensão é ordem sem sujeito. A subjetividade plena só emerge onde há escolha — e a escolha só existe onde há conflito, risco, tempo.
Recuperar a agência não é apenas reconquistar o poder de decisão. É reapropriar-se da própria temporalidade, romper com o fluxo contínuo da performance, negar o imperativo do clique instantâneo. É reaprender a escutar o ruído que as plataformas tentam silenciar. A voz da crítica, a dúvida que insiste, a angústia que pergunta: “quem está decidindo por mim?”
Estamos diante de um império algorítmico que já não precisa proibir nada — basta sugerir o bastante. E é justamente por isso que a resistência contemporânea não começa com o grito — começa com o silêncio. Com o gesto de parar. De hesitar. De recusar o atalho. Com a decisão de esperar. De ler. De desconfiar. De sentir o desconforto que a fluidez tenta esconder.
A crítica que se ergue aqui não é tecnofóbica, nem ingênua, nem messiânica. Ela é materialista, concreta, enraizada na percepção de que os sistemas algorítmicos que organizam a vida são construções históricas, políticas, econômicas e estéticas. São frutos do capital, do controle, da guerra sem armas que se trava nos códigos. E como toda construção histórica, podem — e devem — ser enfrentados.
A luta, portanto, não é contra a tecnologia. É contra a domesticação da subjetividade. Contra o apagamento da deliberação. Contra a fantasia de que confiar na máquina é inevitável. A luta é pela retomada do possível. Pela reinvenção do desejo. Pela reativação da consciência como território político.
Confiar, sim — mas com consciência. Confiar, mas desconfiando. Confiar, mas com atrito. Confiar, não como reflexo, mas como decisão. E, sobretudo, reconhecer o momento em que a confiança se tornou uma armadilha — e a hesitação, nossa única saída.
Porque no fim, a subjetividade começa onde a máquina para. E se ela não para, é preciso fazer com que pare.
E é por isso que seguimos.
Sempre hesitantes.
Sempre lúcidos.
Sempre em combate.
Comentários